![]() ![]() |
![]() ![]() ![]() |
![]() ![]() ![]() ![]() |
Sapere come viene misurata la memoria di un computer: bit, byte, KB, MB, GB, TB. Saper mettere in relazione le misure di memoria di un computer con caratteri, file e directory o cartelle
L'unità di base delle informazioni in un computer si chiama bit (binary digit) e può assumere solo i valori 0 e 1.
Ogni carattere nel linguaggio interpretabile degli elaboratori è quindi rappresentato da una sequenza di 7 oppure 8 bit, a seconda di quale variante della codifica ASCII (pronuncia aschi), cioè "American Standard Code for Information Interchange", viene usata.
La codifica a 7 bit consente 128 possibilità mentre quella a 8 ne consente 256 e permette quindi di indicare vocali accentate ed altri simboli non standard.
Un gruppo di 8 bit viene definito byte, esso può memorizzare un carattere e rappresenta l'unità fondamentale di misura dei supporti di memorizzazione.
I multipli del byte sono:
Megabyte (MB) = 1.024 Kilobyte = 1.048.576 byte
Gigabyte (GB) = 1.024 Megabyte = 1.073.741.824 byte
Terabyte (TB) = 1.024 Gigabyte = 1.099.511.627.776 byte
In un computer tutti i documenti (indipendentemente dal fatto che essi rappresentino un testo, un'immagine ecc.) costituiscono quello che si definisce un file (corrispondente all'italiano archivio).
Se tutti i file venissero archiviati sul computer alla rinfusa, sarebbe poi difficile gestirli, ricercarli ecc. Si è quindi creata una struttura ordinata tramite l'uso delle cosiddette cartelle o "directory" che in Windows sono identificate da un nome scelto dall'utente al momento della loro creazione.
All'interno di una cartella è possibile creare sottocartelle e all'interno di queste altre sotto-sottocartelle. Questa struttura annidata (cioè accogliente come un nido) consente di organizzare al meglio le informazioni archiviate sul computer.
Per diminuire l'occupazione di spazio dei file è possibile usualmente effettuare l'operazione di compressione.
Tale operazione, che può essere eseguita con diversi algoritmi, consiste in una tecnica di riduzione della quantità di bit attraverso algoritmi matematici, basati sulla ridondanza dell'informazione codificata.